AI伺服器「熱度」飆升 液冷技術百家爭鳴(1)

作者: 黃繼寬
2024 年 06 月 28 日
生成式AI帶來巨大的運算能力需求,同時也讓處理器功耗與熱量節節攀升。為解決晶片散熱問題,導入液冷將是不可避免的趨勢,液冷技術也因而呈現百家爭鳴的態勢。 為滿足生成式AI模型訓練對運算能力的巨大需求,伺服器GPU加速器晶片規模快速增加,其所散發的熱量亦出現驚人成長。以NVIDIA最新推出的加速器平台為例,結合2顆Blackwell...
》想看更多內容?快來【免費加入會員】【登入會員】,享受更多閱讀文章的權限喔!
標籤
相關文章

異質運算/開放生態系實現AI民主化

2023 年 08 月 18 日

國內外廠商積極布局 生成式AI商機/監管挑戰並陳(1)

2024 年 01 月 01 日

國內外廠商積極布局 生成式AI商機/監管挑戰並陳(2)

2024 年 01 月 01 日

結合數位孿生概念 機房散熱規劃進入新時代(1)

2024 年 07 月 02 日

結合數位孿生概念 機房散熱規劃進入新時代(2)

2024 年 07 月 02 日

進軍InfiniBand主場 超乙太網路志在必得

2024 年 09 月 20 日
前一篇
AI伺服器「熱度」飆升 液冷技術百家爭鳴(2)
下一篇
GAI/LLM催生即時翻譯應用藍海